Световни новини без цензура!
В годината на големите избори архитектите на ИИ се противопоставят на злоупотребата му
Снимка: nytimes.com
New York Times | 2024-02-16 | 20:15:21

В годината на големите избори архитектите на ИИ се противопоставят на злоупотребата му

Компаниите за изкуствен интелект са в авангарда на създаването на трансформативната технология. Сега те също се надпреварват да слагат ограничавания върху метода, по който ИИ. се употребява в година, наситена с огромни избори по света.

Миналия месец OpenAI, основателят на чатбота ChatGPT, сподели, че работи за попречване на корист с неговите принадлежности в избори, частично посредством възбрана на потреблението им за основаване на чатботове, които се преструват на действителни хора или институции. През последните седмици Гугъл също по този начин сподели, че ще ограничи своя A.I. chatbot, Bard, да не дава отговор на избрани подкани, свързани с изборите, с цел да избегне грешки . А Meta, която има Фейсбук и Instagram, даде обещание да отбелязва по-добре генерираното от AI наличие на своите платформи, тъй че гласоподавателите да могат по-лесно да разграничат коя информация е същинска и коя е подправена.

В петък Anthropic, различен водещ AI. start-up, се причисли към своите връстници, като забрани технологията му да се ползва за политически акции или лобиране. В обява в блог компанията, която прави чатбот, наименуван Claude, сподели, че ще предизвести или ще спре всички консуматори, които нарушат нейните правила. Той добави, че употребява принадлежности, подготвени да откриват и блокират автоматизирано дезинформация и да оказват въздействие върху интервенциите.

„ Историята на ИИ. внедряването също беше цялостно с изненади и непредвидени резултати “, сподели компанията. „ Очакваме, че през 2024 година ще забележим изненадващи използва на ИИ. системи — използва, които не са планувани от личните им разработчици. “

Тайван, Пакистан и Индонезия гласоподаваха, като Индия, най-голямата народна власт в света, възнамерява да организира общите си избори напролет.

Колко ефикасни са рестриктивните мерки върху ИИ. принадлежности ще бъде неразбираемо, изключително когато софтуерните компании напредват с все по-сложни технологии. В четвъртък OpenAI показа Sora, технология, която може неотложно да генерира реалистични видеоклипове. Такива принадлежности биха могли да се употребяват за основаване на текст, звуци и изображения в политически акции, замъглявайки обстоятелства и измислици и повдигайки въпроси за това дали гласоподавателите могат да схванат какво наличие е същинско.

A.I.- генерираното наличие към този момент се появи в политическите акции в Съединени американски щати, предизвиквайки регулаторни и правни отблъсъци. Някои щатски законодатели изготвят законопроекти за контролиране на генерираното от AI политическо наличие.

Миналия месец жителите на Ню Хемпшир получиха известия за автоматизирано позвъняване, които ги разубеждаваха да гласоподават на първичните избори в щата с глас, който най-вероятно е изкуствено генериран, с цел да звучи като президент Байдън. Миналата седмица Федералната комисия по връзките забрани сходни позвънявания.

„ Лошите артисти употребяват генерирани от изкуствен интелект гласове в нежелани автоматизирани позвънявания, с цел да изнудват уязвими членове на фамилията, да имитират звезди и да дезинформират гласоподавателите, “ Джесика Розенворсел, ръководител на FCC, сподели тогава.

Аржентина, Австралия, Англия и Канада. Миналата седмица някогашният министър председател Имран Хан, чиято партия завоюва най-вече места на изборите в Пакистан, употребява ИИ. глас да разгласи победа, до момента в който е в пандиза.

В един от най-последователните изборни цикли в паметта, дезинформацията и измамите, които A.I. може да сътвори, може да бъде опустошително за демокрацията, споделиха специалисти.

„ Ние сме зад осмицата тук “, сподели Орен Ециони, професор във Вашингтонския университет, който специализира в изкуствен интелект и създател на True Media, организация с нестопанска цел, работеща за идентифициране на дезинформация онлайн в политически акции. „ Нуждаем се от принадлежности, с цел да отговорим на това в действително време. “

Anthropic сподели в известието си в петък, че възнамерява проби, с цел да разпознава по какъв начин неговият чатбот Claude може да генерира предубедени или подвеждащо наличие, обвързвано с политически претенденти, политически въпроси и изборна администрация. Тези проби на „ аления екип “, които постоянно се употребяват за продупчване на защитните ограничения на дадена технология за по-добро идентифициране на нейните уязвимости, също ще проучат по какъв начин A.I. дава отговор на нездравословни запитвания, като да вземем за пример подкани, изискващи тактики за угнетяване на гласоподаватели.

През идващите седмици Anthropic също пуска експериментален интервал, който има за цел да пренасочи консуматори в Съединени американски щати, които имат свързани с гласуването запитвания към авторитетни източници на информация като TurboVote от Democracy Works, непартийна група с нестопанска цел. Компанията сподели, че нейният A.I. моделът не е бил обучаван задоволително постоянно, с цел да даде надеждно обстоятелства в действително време за съответни избори.

съди OpenAI и неговия сътрудник, Microsoft, през декември, потвърждавайки, че нарушава авторските права на новинарско наличие, обвързвано с AI. системи.)

Synthesia, започваща компания с ИИ. видеогенератор, който е обвързван с акции за дезинформация, също не разрешава потреблението на технология за „ наличие, сходно на вести “, в това число подправен, поляризиращ, разделящ или подвеждащ материал. Компанията е подобрила системите, които употребява за разкриване на корист с нейната технология, сподели Александру Войка, началник на корпоративните въпроси и политика на Synthesia.

ИИ за непоклатимост, започващ с инструмент за генериране на изображения, съобщи, че не разрешава потреблението на технологията си за противозаконни или неетични цели, работи за блокиране на генерирането на рискови изображения и ползва неосезаем воден знак към всички изображения.

върху софтуерните стандарти, с цел да помогне да се разпознае по кое време наличието е било генерирани с изкуствен интелект. Преди парламентарните избори в Европейския съюз през юни TikTok сподели в обява в блог в сряда, че ще забрани евентуално подвеждащо манипулирано наличие и ще изисква от потребителите да отбелязват реален ИИ. творения.

Гугъл сподели през декември, че също ще изисква от основателите на видеоклипове в YouTube и всички рекламодатели на избори да разкриват цифрово променено или генерирано наличие. Компанията съобщи, че се приготвя за изборите през 2024 година, като лимитира своя ИИ. принадлежности, като Bard, от връщане на отговори за избрани запитвания, свързани с избори.

„ Както всяка нововъзникваща технология, ИИ. дава нови благоприятни условия, както и провокации “, сподели Гугъл. ИИ може да помогне в битката със злоупотребите, добави компанията, „ само че също по този начин се приготвяме за това по какъв начин може да промени пейзажа на дезинформацията. “

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!